其他
python代理爬虫抓豆瓣电影数据(一)
建议看点击原文链接观看,公众号格式有问题!!!
写爬虫防止被封的关键有以下几点:
伪装请求报头(request header)
减轻访问频率,速度
使用代理IP
一般第一点都能做到,第二点减轻访问频率就会大大增加任务时间,而使用代理就能在不增加任务时长避免被封的关键(实际情况却是任务时间因为代理的使用而增加的,但这里不细说,知道就好)。
下面我们从 国内高匿代理IP 获得代理IP数据。
import os
import time
import requests
from bs4 import BeautifulSoup
#num获取num页 国内高匿ip的网页中代理数据def
fetch_proxy(num):
#修改当前工作文件夹
os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
api = 'http://www.xicidaili.com/nn/{}'
header = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS
X 10_12_3) AppleWebKit/537.36 (KHTML,
like Gecko) Chrome/56.0.2924.87 Safari/537.36'}
fp = open('host.txt', 'a+', encoding=('utf-8'))
for i in range(num+1):
api = api.format(1)
respones = requests.get(url=api, headers=header)
soup = BeautifulSoup(respones.text, 'lxml')
container = soup.find_all(name='tr',attrs={'class':'odd'})
for tag in container:
try:
con_soup = BeautifulSoup(str(tag),'lxml')
td_list = con_soup.find_all('td')
ip = str(td_list[1])[4:-5]
port = str(td_list[2])[4:-5]
IPport = ip + '\t' + port + '\n'
fp.write(IPport)
except Exception as e:
print('No IP!')
time.sleep(1)
fp.close()
我们准备抓 国内高匿代理IP网 的十个页面的代理
但是有代理IP还不行,因为我们不知道这代理能不能用,是否有效。
下面我们用百度网进行检验(大公司不怕咱们短时间内高频率访问),上代码:
import os
import time
import requests
from bs4 import BeautifulSoup
def test_proxy():
N = 1
os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
url = 'https://www.baidu.com'
fp = open('host.txt', 'r')
ips = fp.readlines()
proxys = list()
for p in ips:
ip = p.strip('\n').split('\t')
proxy = 'http:\\' + ip[0] + ':' + ip[1]
proxies = {'proxy': proxy}
proxys.append(proxies)
for pro in proxys:
try:
s = requests.get(url, proxies=pro)
print('第{}个ip:{} 状态{}'.format(N,pro,s.status_code)) except Exception as e:
print(e)
N+=1
#文章长度超了,后续内容请看
python代理爬虫抓豆瓣电影数据(二)